اعتبار تصویر: VentureBeat از طریق Midjourney
اعتبار تصویر: VentureBeat از طریق Midjourney

از "عقب ماندن" تا "به ما برسید": چگونه گوگل بی‌سروصدا در هوش مصنوعی سازمانی پیشتاز شد

تنها یک سال پیش، روایت پیرامون گوگل و هوش مصنوعی سازمانی ناامیدکننده به نظر می‌رسید. با وجود اختراع فناوری‌های اصلی مانند ترانسفورمر (Transformer)، به نظر می‌رسید که این غول فناوری همواره در موضع دفاعی قرار دارد و تحت‌الشعاع موفقیت چشمگیر OpenAI، توانایی برنامه‌نویسی Anthropic و تلاش تهاجمی سازمانی مایکروسافت قرار گرفته بود.

اما شاهد صحنه در Google Cloud Next 2025 در لاس وگاس در هفته گذشته باشید: گوگل با اعتماد به نفس، مسلح به مدل‌هایی با عملکرد برتر، زیرساخت قوی و یک استراتژی سازمانی منسجم، تغییر چشمگیری را اعلام کرد. در یک جلسه غیرعلنی با تحلیلگران ارشد گوگل، یکی از تحلیلگران آن را خلاصه کرد. او گفت: "این لحظه به نظر می‌رسد که گوگل از 'عقب ماندن' به 'به ما برسید' تغییر یافته است."

این احساس که گوگل نه تنها به OpenAI و مایکروسافت در رقابت هوش مصنوعی سازمانی رسیده، بلکه حتی از آن‌ها پیشی گرفته است، در سراسر این رویداد حاکم بود. و این چیزی فراتر از تبلیغات گوگل است. شواهد نشان می‌دهد که گوگل از سال گذشته برای اجرای متمرکز و فشرده استفاده کرده و دارایی‌های فناوری خود را به یک پلتفرم یکپارچه و با عملکرد بالا تبدیل کرده است که به سرعت در حال جلب نظر تصمیم‌گیرندگان سازمانی است. از داشتن قدرتمندترین مدل‌های هوش مصنوعی جهان که بر روی سیلیکون سفارشی فوق‌العاده کارآمد اجرا می‌شوند، تا یک اکوسیستم رو به رشد از عوامل هوش مصنوعی که برای حل مشکلات تجاری دنیای واقعی طراحی شده‌اند، گوگل استدلالی قانع‌کننده ارائه می‌دهد که هرگز واقعاً گم نشده بود - بلکه لغزش‌های آن دوره‌ای از توسعه عمیق و اساسی را پنهان کرده بود.

اکنون، با عملکرد یکپارچه تمام بخش‌ها، به نظر می‌رسد گوگل در موقعیتی قرار دارد که رهبری مرحله بعدی انقلاب هوش مصنوعی سازمانی را بر عهده بگیرد. و در مصاحبه‌های من با چندین مدیر اجرایی گوگل در Next، آن‌ها گفتند که گوگل در زیرساخت و یکپارچه‌سازی مدل‌ها نسبت به رقبایی مانند OpenAI، مایکروسافت یا AWS مزیت‌هایی دارد که آن‌ها برای تکرار آن تلاش خواهند کرد.

سایه تردید: اعتراف به گذشته اخیر

بدون اعتراف به گذشته اخیر، نمی‌توان از حرکت کنونی قدردانی کرد. گوگل زادگاه معماری ترانسفورمر بود که انقلاب مدرن در مدل‌های زبانی بزرگ (LLM) را برانگیخت. گوگل همچنین از یک دهه پیش شروع به سرمایه‌گذاری در سخت‌افزار تخصصی هوش مصنوعی (TPU) کرد که اکنون باعث افزایش بهره‌وری در صنعت می‌شود. و با این حال، دو سال و نیم پیش، به طرز غیرقابل توضیحی خود را در حال بازی دفاعی یافت.

ChatGPT از OpenAI، تخیل عمومی و علاقه سازمانی را با سرعت خیره‌کننده‌ای تسخیر کرد و به سریع‌ترین برنامه در حال رشد در تاریخ تبدیل شد. رقبایی مانند Anthropic جایگاه‌هایی را در زمینه‌هایی مانند برنامه‌نویسی برای خود ایجاد کردند.

اقدامات عمومی خود گوگل گاهی اوقات محتاطانه یا ناقص به نظر می‌رسید. اشتباهات نمایشی برد در سال ۲۰۲۳ و جنجال بعدی بر سر تولید تصاویر از نظر تاریخی نادرست در مولد تصویر آن، روایتی را ایجاد کرد که شرکتی احتمالاً توسط بوروکراسی داخلی یا اصلاح بیش از حد در همسویی فلج شده است. به نظر می‌رسید گوگل گم شده است: به نظر می‌رسید لغزش‌های هوش مصنوعی با الگویی مطابقت دارد که ابتدا با کندی اولیه گوگل در رقابت ابری نشان داده شد، جایی که همچنان در رتبه سوم بازار پس از آمازون و مایکروسافت قرار داشت. ویل گرانیس، مدیر ارشد فناوری گوگل کلود، به سؤالات اولیه درباره اینکه آیا گوگل کلود در درازمدت از آن حمایت می‌کند، اذعان کرد. او به یاد آورد که مردم از او می‌پرسیدند: "آیا این حتی یک چیز واقعی است؟" این سوال باقی ماند: آیا گوگل می‌تواند درخشش تحقیقاتی و مقیاس زیرساختی انکارناپذیر خود را به سلطه هوش مصنوعی سازمانی تبدیل کند؟

چرخش: تصمیمی آگاهانه برای رهبری

با این حال، در پشت صحنه، تغییری در حال انجام بود که با تصمیمی آگاهانه در بالاترین سطوح برای بازپس‌گیری رهبری کاتالیز شد. مت ولوسو، معاون محصول پلتفرم توسعه‌دهنده هوش مصنوعی Google DeepMind، پس از ترک مایکروسافت، از احساس یک لحظه محوری پس از پیوستن به گوگل در فوریه ۲۰۲۴ صحبت کرد. ولوسو در مصاحبه‌ای با VentureBeat در طول Next در هفته گذشته به اشتراک گذاشت: "وقتی به گوگل آمدم، با سوندار [پیچای] صحبت کردم، با چندین رهبر در اینجا صحبت کردم و احساس کردم که این لحظه‌ای است که آن‌ها تصمیم می‌گیرند، باشه، این [هوش مصنوعی مولد] چیزی است که صنعت به وضوح به آن اهمیت می‌دهد. بیایید آن را محقق کنیم."

این فشار تجدید شده با ترس از "فرار مغزها" که برخی از افراد خارجی احساس می‌کردند در حال تخلیه گوگل است، مانع نشد. در واقع، این شرکت بی‌سروصدا در اوایل سال ۲۰۲۴ بر اجرای آن تأکید کرد - سالی که با استخدام تهاجمی، اتحاد داخلی و کشش مشتری مشخص شد. در حالی که رقبا استخدام‌های پر زرق و برقی انجام دادند، گوگل رهبری اصلی هوش مصنوعی خود، از جمله مدیر عامل DeepMind، دیمیس هاسابیس و مدیر عامل Google Cloud، توماس کوریان را حفظ کرد و ثبات و تخصص عمیقی را فراهم کرد.

علاوه بر این، استعدادها شروع به جریان به سمت مأموریت متمرکز گوگل کردند. به عنوان مثال، لوگان کیلپاتریک، از OpenAI به گوگل بازگشت، که فرصت ساخت هوش مصنوعی اساسی در داخل شرکت را به خود جلب کرد. او به ولوسو پیوست در آنچه که او به عنوان یک "تجربه صفر به یک" توصیف کرد، با هدف ایجاد کشش توسعه‌دهنده برای جمینی از ابتدا. کیلپاتریک از نقطه شروع به یاد آورد: "این تیم مثل من در روز اول بود... ما در واقع هیچ کاربری در این پلتفرم نداریم، هیچ درآمدی نداریم. در این لحظه هیچ‌کس علاقه‌ای به جمینی ندارد." افراد آشنا با پویایی‌های داخلی همچنین از رهبرانی مانند جاش وودوارد، که به شروع AI Studio کمک کرد و اکنون رهبری برنامه و آزمایشگاه‌های جمینی را بر عهده دارد، قدردانی می‌کنند. اخیراً، نوام شازیر، یکی از نویسندگان اصلی مقاله اصلی "توجه تمام چیزی است که شما نیاز دارید" در دوران تصدی اول خود در گوگل، در اواخر سال ۲۰۲۴ به عنوان یکی از رهبران فنی پروژه حیاتی جمینی به این شرکت بازگشت.

این تلاش هماهنگ، با ترکیب این استخدام‌ها، پیشرفت‌های تحقیقاتی، اصلاحات در فناوری پایگاه داده و تمرکز کلی بر سازمانی، شروع به نتیجه دادن کرد. این پیشرفت‌های تجمعی، همراه با آنچه که CTO ویل گرانیس "صدها عنصر پلتفرم با دانه ریز" نامید، زمینه را برای اعلامیه‌ها در Next '25 فراهم کرد و روایت بازگشت گوگل را تثبیت کرد.

ستون ۱: جمینی ۲.۵ و عصر مدل‌های متفکر

درست است که یک شعار اصلی سازمانی این شده است که "این فقط در مورد مدل نیست." از این گذشته، شکاف عملکرد بین مدل‌های پیشرو به طور چشمگیری کاهش یافته است و افراد داخلی فناوری اذعان می‌کنند که هوش واقعی از فناوری بسته‌بندی شده در اطراف مدل ناشی می‌شود، نه فقط خود مدل - برای مثال، فناوری‌های عاملی که به یک مدل اجازه می‌دهند از ابزارها استفاده کند و وب را در اطراف خود کشف کند.

با وجود این، داشتن بهترین LLM با عملکرد قابل اثبات، یک شاهکار مهم است - و یک اعتباردهنده قدرتمند، نشانه‌ای از اینکه شرکت صاحب مدل چیزهایی مانند تحقیقات برتر و کارآمدترین معماری فناوری زیربنایی را دارد. با انتشار جمینی ۲.۵ پرو تنها چند هفته قبل از Next '25، گوگل به طور قطعی این مسئولیت را بر عهده گرفت. به سرعت از تابلوی امتیازات Chatbot Arena مستقل پیشی گرفت، حتی از آخرین نوع GPT-4o OpenAI نیز به طور قابل توجهی بهتر عمل کرد، و معیارهای استدلال بدنام دشوار مانند آخرین امتحان بشر را با موفقیت پشت سر گذاشت. همانطور که پیچای در سخنرانی اصلی گفت، "این هوشمندترین مدل هوش مصنوعی ما تا کنون است. و این بهترین مدل در جهان است." او به طور جداگانه در توییتی نوشت که این مدل در عرض یک ماه باعث افزایش ۸۰ درصدی استفاده از جمینی شده است.

برای اولین بار، تقاضا برای جمینی گوگل در حال افزایش بود. همانطور که قبلاً توضیح دادم، جدا از هوش خام جمینی ۲.۵ پرو، چیزی که من را تحت تأثیر قرار داد، استدلال قابل اثبات آن است. گوگل یک قابلیت "تفکر" را مهندسی کرده است که به مدل اجازه می‌دهد قبل از نهایی کردن پاسخ، استدلال چند مرحله‌ای، برنامه‌ریزی و حتی خوداندیشی را انجام دهد. زنجیره اندیشه (CoT) ساختاریافته و منسجم - با استفاده از مراحل شماره‌گذاری شده و زیرشاخه‌ها - از ماهیت پرحرفی یا مبهم خروجی‌های مدل‌های دیگر از DeepSeek یا OpenAI جلوگیری می‌کند. برای تیم‌های فنی که خروجی‌ها را برای وظایف حیاتی ارزیابی می‌کنند، این شفافیت امکان اعتبارسنجی، تصحیح و تغییر مسیر را با اطمینان بی‌سابقه‌ای فراهم می‌کند.

اما مهم‌تر از آن برای کاربران سازمانی، جمینی ۲.۵ پرو نیز شکاف در برنامه‌نویسی را به طور چشمگیری کاهش داد، که یکی از بزرگترین زمینه‌های کاربردی برای هوش مصنوعی مولد است. فیونا تان، مدیر ارشد فناوری خرده‌فروش پیشرو Wayfair، در مصاحبه‌ای با VentureBeat گفت که پس از آزمایش‌های اولیه، این شرکت دریافت که "تا حد زیادی پیشرفت کرده است" و اکنون "تا حد زیادی قابل مقایسه" با Claude 3.7 Sonnet از Anthropic است، که قبلاً انتخاب ترجیحی برای بسیاری از توسعه‌دهندگان بود.

گوگل همچنین یک پنجره زمینه ۱ میلیون توکنی عظیم به مدل اضافه کرد که امکان استدلال در سراسر پایگاه‌های کد یا مستندات طولانی را فراهم می‌کند و از قابلیت‌های مدل‌های OpenAI یا Anthropic فراتر می‌رود. (OpenAI این هفته با مدل‌هایی که دارای پنجره‌های زمینه به طور مشابه بزرگ هستند، پاسخ داد، اگرچه معیارها نشان می‌دهند که جمینی ۲.۵ پرو در استدلال کلی برتری خود را حفظ می‌کند). این مزیت امکان انجام وظایف پیچیده مهندسی نرم‌افزار چند فایلی را فراهم می‌کند.

جمینی ۲.۵ فلش که در Next '25 معرفی شد و دیروز منتشر شد، مکمل پرو است. فلش نیز یک مدل "متفکر" است که برای تأخیر کم و مقرون به صرفه بودن بهینه شده است. شما می‌توانید میزان استدلال مدل را کنترل کنید و عملکرد را با بودجه خود متعادل کنید. این رویکرد طبقه‌بندی شده بیشتر منعکس‌کننده استراتژی "هوش به ازای هر دلار" است که توسط مدیران گوگل حمایت می‌شود.

ولوسو نموداری را نشان داد که نشان می‌داد در سراسر طیف هوش، مدل‌های گوگل بهترین ارزش را ارائه می‌دهند. ولوسو با تأکید بر تغییر سریع، اعتراف کرد: "اگر یک سال پیش این مکالمه را داشتیم... من چیزی برای نشان دادن نداشتم." "و اکنون، مانند، در سراسر جهان، ما هستیم، اگر به دنبال هر مدل، هر اندازه‌ای هستید، مانند، اگر گوگل نیستید، در حال از دست دادن پول هستید." این نمودارها برای در نظر گرفتن آخرین نسخه‌های مدل OpenAI در این هفته به‌روزرسانی شده‌اند. به زیر مراجعه کنید:

نمودار مقایسه هوش مدل در مقابل قیمت
برای هر قیمت معین، مدل‌های گوگل حدود ۹۰ درصد مواقع هوش بیشتری نسبت به مدل‌های دیگر ارائه می‌دهند. منبع: پیر بونگراند.

تان از Wayfair گفت که او همچنین بهبودهای امیدوارکننده‌ای در تأخیر با ۲.۵ پرو مشاهده کرده است: او گفت: "جمینی ۲.۵ سریع‌تر بازگشت" و آن را برای "قابلیت‌های بیشتر رو به مشتری" مناسب می‌کند، چیزی که او گفت قبلاً با مدل‌های دیگر اینطور نبوده است. او گفت که جمینی می‌تواند اولین مدلی باشد که Wayfair برای این تعاملات مشتری استفاده می‌کند.

قابلیت‌های خانواده جمینی به چندوجهی بودن گسترش می‌یابد و به طور یکپارچه با سایر مدل‌های پیشرو گوگل مانند Imagen 3 (تولید تصویر)، Veo 2 (تولید ویدیو)، Chirp 3 (صوتی) و Lyria تازه معرفی شده (متن به موسیقی) ادغام می‌شود، که همگی از طریق پلتفرم گوگل برای کاربران سازمانی، Vertex، قابل دسترسی هستند. گوگل تنها شرکتی است که مدل‌های رسانه‌ای مولد خود را در تمام حالت‌ها در پلتفرم خود ارائه می‌دهد. مایکروسافت، AWS و OpenAI باید با شرکت‌های دیگر برای انجام این کار همکاری کنند.

ستون ۲: قدرت زیرساخت - موتور زیر کاپوت

توانایی تکرار سریع و ارائه کارآمد این مدل‌های قدرتمند ناشی از زیرساخت بی‌نظیر گوگل است که در طول دهه‌ها اجرای خدمات در مقیاس سیاره‌ای تقویت شده است. واحد پردازش تنسور (TPU) در مرکز این موضوع قرار دارد.

گوگل در Next '25، آیرونوود، نسل هفتم TPU خود را رونمایی کرد که به طور واضح برای خواسته‌های استنتاج و "مدل‌های متفکر" طراحی شده است. مقیاس آن بسیار زیاد است و برای بارهای کاری هوش مصنوعی طراحی شده است: غلاف‌های آیرونوود بیش از ۹۰۰۰ تراشه خنک‌شونده با مایع را بسته‌بندی می‌کنند و ادعا می‌شود که ۴۲.۵ اگزافلاپس قدرت محاسباتی ارائه می‌دهند. امین وحدت، معاون سیستم‌های ML گوگل، روی صحنه Next گفت که این "بیش از ۲۴ برابر" قدرت محاسباتی ابررایانه شماره ۱ فعلی جهان است.

گوگل اعلام کرد که آیرونوود نسبت به Trillium، نسل قبلی TPU، ۲ برابر عملکرد/وات ارائه می‌دهد. این مهم است زیرا مشتریان سازمانی به طور فزاینده‌ای می‌گویند که هزینه‌ها و در دسترس بودن انرژی استقرار هوش مصنوعی در مقیاس بزرگ را محدود می‌کند.

ویل گرانیس، مدیر ارشد فناوری گوگل کلود، بر تداوم این پیشرفت تأکید کرد. او در مصاحبه‌ای به VentureBeat گفت که گوگل سال به سال ۱۰ برابر، ۸ برابر، ۹ برابر، ۱۰ برابر در پردازنده‌های خود پیشرفت می‌کند و آنچه او "قانون هایپر مور" برای شتاب‌دهنده‌های هوش مصنوعی نامید را ایجاد می‌کند. او گفت که مشتریان در حال خرید نقشه راه گوگل هستند، نه فقط فناوری آن.

موقعیت گوگل به این سرمایه‌گذاری پایدار TPU دامن زده است. برای تامین انرژی کارآمد خدمات گسترده‌ای مانند جستجو، یوتیوب و جیمیل برای بیش از ۲ میلیارد کاربر، لازم است. این امر مستلزم توسعه سخت‌افزار سفارشی و بهینه‌سازی‌شده مدت‌ها قبل از رونق فعلی هوش مصنوعی مولد بود. در حالی که متا در مقیاس مصرف‌کننده مشابهی فعالیت می‌کند، سایر رقبا این محرک داخلی خاص را برای توسعه سخت‌افزار هوش مصنوعی یکپارچه عمودی دهه‌ای ندارند.

اکنون این سرمایه‌گذاری‌های TPU به ثمر می‌رسند زیرا نه تنها کارایی برنامه‌های خود را افزایش می‌دهند، بلکه به گوگل اجازه می‌دهند جمینی را با هوش بهتر به ازای هر دلار به سایر کاربران ارائه دهد، همه چیز برابر است.

شاید بپرسید چرا رقبای گوگل نمی‌توانند پردازنده‌های کارآمد را از Nvidia بخرند؟ درست است که پردازنده‌های GPU Nvidia بر فرآیند پیش‌آموزش LLM‌ها تسلط دارند. اما تقاضای بازار قیمت این GPUها را افزایش داده است و Nvidia سهم خوبی را به عنوان سود برای خود برمی‌دارد. این هزینه‌های قابل توجهی را به کاربران تراشه‌های خود منتقل می‌کند. و همچنین، در حالی که پیش‌آموزش تاکنون بر استفاده از تراشه‌های هوش مصنوعی تسلط داشته است، این در حال تغییر است زیرا شرکت‌ها در واقع این برنامه‌ها را مستقر می‌کنند. اینجاست که "استنتاج" وارد عمل می‌شود و در اینجا TPUها برای بارهای کاری در مقیاس کارآمدتر از GPUها در نظر گرفته می‌شوند.

وقتی از مدیران گوگل می‌پرسید که مزیت اصلی فناوری آن‌ها در هوش مصنوعی از کجا ناشی می‌شود، معمولاً به TPU به عنوان مهم‌ترین چیز برمی‌گردند. مارک لومایر، معاون رئیس که زیرساخت محاسباتی گوگل را اداره می‌کند، قاطع بود: TPUها "مطمئناً بخش بسیار متفاوتی از کاری هستند که ما انجام می‌دهیم... OpenAI، آن‌ها این قابلیت‌ها را ندارند."

به طور قابل توجهی، گوگل TPUها را نه به صورت مجزا، بلکه به عنوان بخشی از معماری هوش مصنوعی سازمانی گسترده‌تر و پیچیده‌تر ارائه می‌دهد. برای افراد داخلی فنی، این درک وجود دارد که عملکرد سطح بالا به ادغام پیشرفت‌های فناوری تخصصی فزاینده بستگی دارد. بسیاری از به‌روزرسانی‌ها در Next شرح داده شد. وحدت این را یک "سیستم ابررایانه" توصیف کرد که سخت‌افزار (TPUها، جدیدترین GPUهای Nvidia مانند Blackwell و Vera Rubin آینده، فضای ذخیره‌سازی پیشرفته مانند Hyperdisk Exapools، Anywhere Cache و Rapid Storage) را با یک پشته نرم‌افزاری یکپارچه ادغام می‌کند. این نرم‌افزار شامل Cluster Director برای مدیریت شتاب‌دهنده‌ها، Pathways (زمان اجرای توزیع شده جمینی، اکنون در دسترس مشتریان است) و بهینه‌سازی‌هایی مانند vLLM را به TPUها می‌آورد و امکان مهاجرت آسان‌تر بار کاری را برای کسانی که قبلاً در پشته‌های Nvidia/PyTorch بودند، فراهم می‌کند. وحدت استدلال کرد که این سیستم یکپارچه دلیل دستیابی جمینی ۲.۰ فلش به ۲۴ برابر هوش بیشتر به ازای هر دلار در مقایسه با GPT-4o است.

گوگل همچنین در حال گسترش دسترسی زیرساخت فیزیکی خود است. Cloud WAN شبکه فیبر اختصاصی ۲ میلیون مایلی با تأخیر کم گوگل را در دسترس شرکت‌ها قرار می‌دهد و نوید عملکرد ۴۰ درصد سریع‌تر و ۴۰ درصد هزینه کل مالکیت (TCO) کمتر در مقایسه با شبکه‌های مدیریت‌شده توسط مشتری را می‌دهد.

علاوه بر این، Google Distributed Cloud (GDC) به جمینی و سخت‌افزار Nvidia (از طریق مشارکت با Dell) اجازه می‌دهد تا در محیط‌های مستقل، محلی یا حتی جدا از هوا اجرا شوند - قابلیتی که جنسن هوانگ، مدیر عامل Nvidia، آن را برای آوردن هوش مصنوعی پیشرفته به صنایع و کشورهای تنظیم‌شده "کاملاً غول پیکر" نامید. هوانگ در Next، زیرساخت گوگل را بهترین در جهان خواند: او گفت: "هیچ شرکتی در هر لایه از محاسبات بهتر از گوگل و Google Cloud نیست."

ستون ۳: پشته کامل یکپارچه - اتصال نقاط

مزیت استراتژیک گوگل با در نظر گرفتن اینکه چگونه این مدل‌ها و اجزای زیرساختی در یک پلتفرم منسجم بافته شده‌اند، رشد می‌کند. بر خلاف رقبا، که اغلب برای پر کردن شکاف‌ها به مشارکت متکی هستند، گوگل تقریباً هر لایه را کنترل می‌کند و امکان ادغام محکم‌تر و چرخه‌های نوآوری سریع‌تر را فراهم می‌کند.

پس اگر رقیبی مانند مایکروسافت بتواند به سادگی با OpenAI برای مطابقت با وسعت زیرساخت با قدرت مدل LLM همکاری کند، چرا این ادغام مهم است؟ گوگلرهایی که با آن‌ها صحبت کردم گفتند که تفاوت زیادی ایجاد می‌کند و آن‌ها حکایاتی را برای پشتیبانی از آن ارائه کردند.

به عنوان مثال، بهبود قابل توجه پایگاه داده سازمانی گوگل، BigQuery را در نظر بگیرید. این پایگاه داده اکنون یک نمودار دانش ارائه می‌دهد که به LLMها اجازه می‌دهد داده‌ها را بسیار کارآمدتر جستجو کنند و اکنون بیش از پنج برابر مشتریان رقبایی مانند Snowflake و Databricks را دارد، VentureBeat دیروز گزارش داد. یاسمین احمد، رئیس محصول تجزیه و تحلیل داده در Google Cloud، گفت که این پیشرفت‌های عظیم تنها به این دلیل امکان‌پذیر بود که تیم‌های داده گوگل از نزدیک با تیم DeepMind همکاری می‌کردند. او گفت که آن‌ها از طریق موارد استفاده‌ای کار کردند که حل آن‌ها دشوار بود و این منجر به ارائه ۵۰ درصد دقت بیشتر توسط پایگاه داده بر اساس سؤالات متداول شد، حداقل طبق آزمایش‌های داخلی گوگل، در رسیدن به داده‌های مناسب نسبت به نزدیک‌ترین رقبا، احمد در مصاحبه‌ای به VentureBeat گفت. احمد گفت که این نوع ادغام عمیق در سراسر پشته این است که چگونه گوگل از صنعت "پیشی گرفته است".

این انسجام داخلی به شدت با پویایی "دشمنان" در مایکروسافت در تضاد است. در حالی که مایکروسافت با OpenAI برای توزیع مدل‌های خود در ابر Azure همکاری می‌کند، مایکروسافت نیز در حال ساخت مدل‌های خود است. مت ولوسو، مدیر اجرایی گوگل که اکنون رهبری برنامه توسعه‌دهنده هوش مصنوعی را بر عهده دارد، پس از ناامید شدن از تلاش برای همسویی برنامه‌های Windows Copilot با پیشنهادات مدل OpenAI، مایکروسافت را ترک کرد. او به یاد آورد: "چگونه برنامه‌های محصول خود را با شرکت دیگری که در واقع با شما رقابت می‌کند، به اشتراک می‌گذارید... کل این موضوع یک تناقض است." "در اینجا من در کنار افرادی می‌نشینم که در حال ساخت مدل‌ها هستند."

این ادغام به آنچه رهبران گوگل به عنوان مزیت اصلی خود می‌بینند، اشاره دارد: توانایی بی‌نظیر آن در ارتباط دادن تخصص عمیق در سراسر طیف کامل، از تحقیقات اساسی و ساخت مدل گرفته تا استقرار برنامه "در مقیاس سیاره‌ای" و طراحی زیرساخت.

Vertex AI به عنوان سیستم عصبی مرکزی برای تلاش‌های هوش مصنوعی سازمانی گوگل عمل می‌کند. و این ادغام فراتر از پیشنهادات خود گوگل است. Model Garden Vertex بیش از ۲۰۰ مدل انتخاب‌شده، از جمله Google، Llama 4 از Meta و گزینه‌های منبع باز متعدد را ارائه می‌دهد. Vertex ابزارهایی را برای تنظیم، ارزیابی (از جمله Evals مبتنی بر هوش مصنوعی، که گرانیس آن را به عنوان یک شتاب‌دهنده کلیدی برجسته کرد)، استقرار و نظارت ارائه می‌دهد. قابلیت‌های زمین‌سازی آن از پایگاه‌های داده آماده هوش مصنوعی داخلی در کنار سازگاری با پایگاه‌های داده برداری خارجی استفاده می‌کنند. به این موارد پیشنهادات جدید گوگل برای زمین‌گیری مدل‌ها با جستجوی گوگل، بهترین موتور جستجو در جهان را اضافه کنید.

ادغام به Google Workspace گسترش می‌یابد. ویژگی‌های جدید معرفی شده در Next '25، مانند "به من کمک کن تجزیه و تحلیل کنم" در Sheets (بله، Sheets اکنون فرمول "=AI" داردنمای کلی صوتی در Docs و Workspace Flows، قابلیت‌های Gemini را بیشتر در گردش کار روزانه جاسازی می‌کنند و یک حلقه بازخورد قدرتمند برای گوگل ایجاد می‌کنند تا از آن برای بهبود تجربه استفاده کند.

در حالی که گوگل پشته یکپارچه خود را هدایت می‌کند، در جایی که به اکوسیستم خدمت می‌کند، از باز بودن نیز حمایت می‌کند. با هدایت پذیرش Kubernetes، اکنون از JAX برای چارچوب‌های هوش مصنوعی و اکنون پروتکل‌های باز برای ارتباط عامل (A2A) در کنار پشتیبانی از استانداردهای موجود (MCP) حمایت می‌کند. گوگل همچنین صدها اتصال‌دهنده به پلتفرم‌های خارجی را از داخل Agentspace، که رابط یکپارچه جدید گوگل برای کارمندان برای یافتن و استفاده از عامل‌ها است، ارائه می‌دهد. این مفهوم هاب قانع‌کننده است. نمایش کلیدی Agentspace (از ۵۱:۴۰ شروع می‌شود) این را نشان می‌دهد. گوگل به کاربران عامل‌های از پیش ساخته شده ارائه می‌دهد، یا کارمندان یا توسعه‌دهندگان می‌توانند با استفاده از قابلیت‌های هوش مصنوعی بدون کد، عامل‌های خود را بسازند. یا می‌توانند از طریق اتصال‌دهنده‌های A2A، عامل‌هایی را از خارج وارد کنند. این در مرورگر Chrome برای دسترسی یکپارچه ادغام می‌شود.

ستون ۴: تمرکز بر ارزش سازمانی و اکوسیستم عامل

شاید مهم‌ترین تغییر، تمرکز واضح گوگل بر حل مشکلات ملموس سازمانی، به ویژه از طریق لنز عامل‌های هوش مصنوعی باشد. توماس کوریان، مدیر عامل Google Cloud، سه دلیلی را که مشتریان گوگل را انتخاب می‌کنند، شرح داد: پ